1
Эволюция промптов: от простых инструкций к структурированному рассуждению
AI012Lesson 3
00:00

Иерархия промптов: от инструкций к логике

Промптинг эволюционировал от простых командных вводов к сложным архитектурами рассуждений которые направляют внутренний процесс обработки модели.

Основные понятия

  • Нулевая подсказка (Zero-shot Prompting): Предоставление описания задачи без каких-либо примеров (например, «Переведите это на французский»).
  • Малошаговая подсказка (Few-shot Prompting): Использование «демонстраций» (пар вход-выход) для определения пространства меток и желаемого формата.
  • Цепочка рассуждений (Chain-of-Thought, CoT): Метод промптов, который побуждает модель генерировать промежуточные шаги рассуждений.
  • Эмерджентные свойства: Сложное рассуждение не программируется напрямую, а «возникает» в моделях, обычно превышающих 10 млрд параметров.

Сдвиг в рассуждениях

  1. Следование инструкциям: Прямое сопоставление входа с выходом.
  2. Обучение в контексте: Изучение паттернов на основе предоставленных примеров (малошаговое обучение).
  3. Логическая декомпозиция: Разбиение проблем на последовательные шаги (цепочка рассуждений).
  4. Контроль процесса: Приоритет точности «мыслительных» шагов перед конечным ответом (как видно в OpenAI o1).
Ключевая идея
Производительность модели в условиях малошагового обучения сильно зависит от распределения меток и релевантности демонстраций, а не только от количества примеров.
prompting_strategies.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Which method relies on providing "demonstrations" to guide the model?
Zero-shot prompting
Few-shot prompting
Chain-of-Thought
Fine-tuning
Question 2
True or False: Chain-of-Thought reasoning is a capability found in almost all AI models regardless of size.
True
False
Challenge: Optimizing Logic Puzzles
Scenario: Optimize a prompt for a model that is struggling with a logic puzzle.
You are using an LLM to solve the following puzzle: "A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?"

Currently, you are passing the prompt exactly as written above, and the model incorrectly answers "$0.10".
Task 1
Identify if the current prompt is Zero-shot or Few-shot.
Solution:
The current prompt is Zero-shot because it provides the task description without any prior examples or demonstrations of similar solved puzzles.
Task 2
Inject the Zero-shot CoT trigger phrase to improve reasoning accuracy. Rewrite the prompt.
Solution:
"A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost? Let's think step by step:"